Text copied to clipboard!
Заглавие
Text copied to clipboard!Hadoop разработчик
Описание
Text copied to clipboard!
Търсим опитен Hadoop разработчик, който да се присъедини към нашия екип и да участва в проекти, свързани с обработка на големи обеми от данни. Кандидатът трябва да има задълбочени познания в областта на разпределените системи, програмиране и анализ на данни. Ролята изисква умения за проектиране, разработване и поддръжка на мащабируеми и надеждни решения, използващи Hadoop екосистемата.
Като Hadoop разработчик, ще работите в тясно сътрудничество с екипи от анализатори, инженери и архитекти, за да изградите ефективни решения за събиране, съхранение и анализ на данни. Ще използвате технологии като HDFS, MapReduce, Hive, Pig, Spark и други компоненти от Hadoop екосистемата. Ще участвате в целия жизнен цикъл на разработката – от събиране на изисквания до внедряване и поддръжка.
Идеалният кандидат трябва да има опит с Java, Scala или Python, както и с инструменти за управление на данни и ETL процеси. Очаква се да имате аналитично мислене, внимание към детайла и способност за решаване на сложни проблеми. Опит с облачни платформи като AWS, Azure или Google Cloud ще се счита за предимство.
Ние предлагаме конкурентно възнаграждение, възможности за професионално развитие и работа в динамична и иновативна среда. Ако сте мотивиран специалист с интерес към големите данни и желаете да работите по предизвикателни проекти, ще се радваме да се свържете с нас.
Отговорности
Text copied to clipboard!- Разработване и поддръжка на Hadoop базирани приложения
- Проектиране на архитектура за обработка на големи обеми от данни
- Използване на компоненти като Hive, Pig, Spark и HBase
- Оптимизация на MapReduce задачи и ETL процеси
- Интеграция на Hadoop решения с други системи и бази данни
- Работа в екип с анализатори и инженери за реализиране на бизнес изисквания
- Мониторинг и отстраняване на проблеми в Hadoop клъстери
- Поддържане на документация и стандарти за кодиране
- Участие в планиране и оценка на проекти
- Обучение и подпомагане на по-малко опитни членове на екипа
Изисквания
Text copied to clipboard!- Бакалавърска или магистърска степен в областта на компютърните науки или сходна специалност
- Минимум 2 години опит с Hadoop и свързани технологии
- Добри познания по Java, Scala или Python
- Опит с HDFS, MapReduce, Hive, Pig, Spark
- Разбиране на концепции за разпределени системи и паралелна обработка
- Опит с инструменти за ETL и управление на данни
- Умения за работа в екип и комуникация
- Аналитично мислене и способност за решаване на проблеми
- Предимство е опит с облачни платформи (AWS, Azure, GCP)
- Желание за учене и развитие в областта на Big Data
Потенциални въпроси за интервю
Text copied to clipboard!- Какъв е вашият опит с Hadoop и свързаните технологии?
- С кои езици за програмиране работите най-често?
- Работили ли сте с Spark или Hive? Опишете конкретен проект.
- Как подхождате към оптимизация на MapReduce задачи?
- Имате ли опит с облачни платформи и какви?
- Какви предизвикателства сте срещали при работа с големи обеми от данни?
- Какви инструменти използвате за мониторинг и отстраняване на проблеми?
- Как поддържате документацията на вашите проекти?
- Какво ви мотивира да работите в сферата на Big Data?
- Как се справяте с работа в екип и споделяне на знания?